Aproximación o ajuste a una curva usando el método de mínimos cuadrados
- Es una técnica de cálculo en la que, dado un conjunto de pares ordenados \((x, y)\) y una familia de funciones (cuadráticas, exponenciales, polinómicas, etc.), se intenta encontrar la función continua que mejor se aproxime a los puntos dados con el criterio de mínimo error cuadrático.
- Dado un conjunto de valores que podemos plasmar en un sistema de coordenadas, buscamos encontrar una función que, sin ser solución exacta de esos puntos, nos dé la mejor de las aproximaciones a esos puntos.
Nosotros tenemos que elegir la función que mejor se puede ajustar a los datos que tenemos.
La función de aproximación se define de esta manera
\[
f(x) = \sum_{j=1}^{m} \theta_j \phi_j(x)
\]
Donde:
- \(m\) es la cantidad de términos de la función de aproximación.
- \( \theta_j \) es el coeficiente del término \( \phi_j(x) \).
- \( \phi_j(x) \) es el término \(j\) de la función de aproximación.
- \(\phi_1(x) = x^2\)
- \(\phi_2(x) = x\)
- \(\phi_3(x) = 1\)
Función de error o funcional de desviación
La función de error la definimos utilizando el criterio de mínimo error cuadrático: \[ S = \sum (y_i - f(x_i))^2 \] Donde:- \( y_i \) = valor real del dato
- \( f(x_i) \) la función que estamos evaluando
- Se suman las diferencias al cuadrado para TODOS los puntos de datos
Porque usamos error cuadrático en lugar de error absoluto o función módulo?
Porque no está definida la derivada para el valor absoluto y necesitamos la derivada para encontrar el mínimo de la función.Reemplazar función a evaluar en la función de desviación
Función a evaluar: \[ \color{purple} f(x) = \sum_{j=1}^{m} \theta_j \phi_j(x) \] Función de error: \[ S = \sum (y_i - \color{purple} f(x_i) \color{black} )^2 \] \[ S = \sum (y_i - \color{purple} \sum_{j=1}^{m} \theta_j \phi_j(x_i) \color{black} )^2 \] Siguiendo el ejemplo anterior: \[ S = \sum (y_i - \color{purple} (\theta_1 x_i^2 + \theta_2 x_i + \theta_3) \color{black} )^2 \]Calcular derivadas parciales
Podemos ver la función de error de la siguiente manera:\(S = u^2\)
\(S' = 2uu'\)
Entonces: \[ u = y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3) \] Las variables que buscamos son \(\color{brown}\theta_j\), así que las tomamos como variables, so \(\color{blue}x^2\), \(\color{blue}x\) y \(\color{blue}x^0\) son constantes. \[ u = y_i - ( \color{brown} \theta_1 \color{blue} x_i^2 \color{black} + \color{brown} \theta_2 \color{blue} x_i \color{black} + \color{brown} \theta_3 \color{blue} x_i^0 \color{black} ) \] Entonces, dado que la derivada de \(y=\color{blue}c \color{brown} x\) es \(y'=\color{blue}c\) las derivadas parciales son: \[ \frac{\partial u}{\partial \color{brown} \theta_1} \color{black}= -\color{blue}x_i^2 \] \[ \frac{\partial u}{\partial \color{brown} \theta_2}\color{black} = -\color{blue}x_i \] \[ \frac{\partial u}{\partial \color{brown} \theta_3} \color{black}= -\color{blue}1 \] Entonces: \[ \frac{\partial S}{\partial \theta_1} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(-2x_i) \] \[ \frac{\partial S}{\partial \theta_2} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(-1) \] \[ \frac{\partial S}{\partial \theta_3} = 2 (y_i - (\theta_1 x_i^2 + \theta_2 x_i + \theta_3))(0) \] Si generalizamos las derivadas parcialesnos queda que: \[ \theta_j \phi(x_i) \rightarrow \phi(x_i) \]